59 resultados para Erysiphe diffusa

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivo del presente lavoro consiste nell’elaborazione di curve di isodose relative ad alcuni apparecchi radiologici utilizzati in ambito medico partendo da misure effettuate sul campo in condizioni geometriche predefinite. Tali curve hanno consentito una mappatura dei campi di radiazione nei locali di impiego delle apparecchiature stesse, utili nelle valutazioni di radioprotezione degli operatori. In questo modo viene fornito al clinico uno strumento di consultazione per ottimizzare le proprie procedure da un punto di vista dell’esposizione al rischio delle radiazioni ionizzanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sistema viabile rappresenta una parte fondamentale nella dinamica dei trasporti al servizio della mobilità di trasporti e merci. La mobilità, ha fatto registrare ritmi di crescita sostenuti nel corso degli anni. Le trasformazioni sociali, del mercato del lavoro, lo sviluppo produttivo e commerciale, la posizione baricentrica tra le province jonca salentina e brindisina fanno di Manduria, una realtà dove è necessario prestare attenzione al sistema dei trasporti. Tuttavia la rete statale di vecchio stampo che risulta utilizzata, soprattutto da quote di mobilità interprovinciale per questioni di economicità del percorso e dal momento che manca una rete viaria ordinaria funzionale e scorrevole che colleghi in modo capillare il territorio fanno si che la Strada Statale 7ter risulti congestionata in maniera diffusa. La Superstrada di nuova costruzione sarebbe potuta essere un importante arteria stradale allacciandosi alla SS Taranto Brindisi Lecce collegando il sud della provincia Jonica in modo capillare ai comuni della provincia Taranto e Lecce, la quale non è stata ultimata ed avrebbe rappresentato una valida alternativa alla statale esistenti. Oltre a favorire i collegamenti tra il territorio jonico, brindisino e quello salentino, tale intervento sarebbe stato necessario per ridurre la componente di traffico di attraversamento di una serie di centri urbani, tra cui il Comune di Manduria. In questa tesi, sulla base dei dati raccolti dall’ultimo censimento nell’ambito provinciale e del Comune di Manduria, verrà implementato il funzionamento del Piano del Traffico stradale del Comune di Manduria e verranno condotte delle simulazioni, con l’ausilio del software di pianificazione di sistemi di trasporto stradale Omnitrans, versione demo, scaricabile gratuitamente dal sito www.omnitrans-international.com. Si ricercheranno stime sul funzionamento della rete, valutando la congestione del traffico ed eventualmente in termini di aumento della sicurezza e riduzione dell’inquinamento atmosferico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Complice l'entrata a far parte dell'Unione Europea e del risultante recepimento delle sue normative e sopratutto dei suoi principi, nel nostro Paese si sta verificando un sostanziale incremento delle realtà territoriali attivate sul fronte della raccolta differenziata. L'intercettazione delle frazioni compostabili (umido e scarti verdi) sta assumendo un ruolo di sempre maggior rilevanza quantitativa nella raccolta differenziata. Infatti dal 1997 al 2007 si è passati da circa 604.000 ton di frazioni raccolte a 2.368.000 ton. Questo sistema di recupero degli scarti organici è attualmente il più diffuso nel nostro Paese. Esso presenta indubbi problemi tecnico-gestionali, sopratutto riconducibili alle emissioni odorigene che raramente risultano però nocive o addirittura tossiche per la salute dell'ambiente e delle persone. Nonostante questo dato gli impianti di compostaggio incontrano spesso una diffusa e forte avversione da quella parte di popolazione interessata ad accogliere l'impianto sul proprio territorio rispetto anche ad impianti di indubbia maggior pericolosità. Per via di questo generale atteggiamento in Italia risulta pertanto esistere una normativa particolarmente stringente sulle garanzie ambientali necessarie per la realizzazione di impianti di compostaggio confrontata con quella europea. Questa normativa però lascia inalterata la difficoltà nella diffusione di un'impiantistica adeguata a rispondere alle necessità della raccolta differenziata. Questo problema risulta ancor più rilevante come nel caso dell'impianto oggetto di studio situato in ambiente altamente urbanizzato. In questi territori ad alta densità abitativa spesso si assiste alla degenerazione del sistema dove protratte conflittualità con la popolazione interessata ostacolano l'esercizio o portano alla temporanea cessazione delle attività degli impianti esistenti. Ulteriore problema risulta essere il fatto che anche in impianti nuovi criteri corretti di progettazione e costruzione risultano essere alle volte non sufficienti per evitare le precedenti problematiche, diventa quindi oltremodo difficoltoso ottenere gli stessi risultati intervenendo su impianti già esistenti con misure di riqualificazione adeguate e compatibili con la sostenibilità economica dell'impianto. Per tanto questa tesi si propone di individuare le problematiche esistenti e proporre soluzioni efficaci al rilevante problema delle emissioni odorigene che sembra caratterizzare questo impianto, tramite uno studio dello stato di fatto e l'analisi delle criticità riscontrate, concentrandosi in modo particolare sul biofiltro e sulla biofiltrazione, che sembra essere il problema principale che influenza la qualità delle emissioni. Il caso oggetto di questa tesi riguarda un impianto avviato nel 2004 che, dopo un lungo periodo di esercizio caratterizzato da problematiche ambientali mai pienamente risolte, è stato sottoposto dalla seconda metà del 2008 ad una semplice e sistematica revisione delle procedure gestionali e mirati interventi tecnici ed impiantistici nell'ambito di un percorso di risanamento e riqualificazione. 5

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’evolvere del sistema insediativo nelle Marche, dal dopoguerra ad oggi, ha condotto ad un diffuso sottoutilizzo dei piccoli centri storici ed all’abbandono, ormai definitivo, di quei borghi minori, privi di funzioni di pregio, privi ormai anche delle dotazioni minime funzionali all’abitare. Il piccolo nucleo di Sant’Arduino si inserisce in quel lungo elenco di borghi che, con il graduale abbandono dell’agricoltura, hanno subito un progressivo processo di spopolamento. Lungo la strada che da Macerata Feltria conduce verso il monte Carpegna, il complesso monumentale è quasi sospeso su un dirupo: un campanile senza campane, una chiesa sconsacrata e pochi edifici rustici da alcuni anni completamente abbandonati. E' tutto quello che rimane dell'antico castello e della Chiesa parrocchiale di Sant’Arduino, che oggi ha perso la propria autonomia amministrativa e si colloca nel Comune di Pietrarubbia. Questo lavoro vuole offrire un contributo al processo di valorizzazione dei nuclei minori di antico impianto, intento promosso dalla stessa Regione all’interno del progetto “Borghi delle Marche”. La sensibilizzazione per un recupero urbanistico e architettonico del patrimonio tradizionale minore si coniuga con la scelta di inserire l’intervento nel suo contesto culturale e geografico, cercando di impostare, non un isolato intervento di recupero, ma un anello di connessione in termini sociali, culturali e funzionali con le politiche di sviluppo del territorio. Il percorso individuato si è articolato su una prima fase di indagine volta ad ottenere una conoscenza del tema dei borghi abbandonati e del sistema dei borghi delle Marche, successivamente l’analisi storica e la lettura e l’indagine dell’oggetto, fasi propedeutiche all’elaborazione di un’ipotesi di intervento, per giungere all’individuazione della modalità di riuso compatibile con il rispetto dei valori storico, formali e culturali del luogo. Per questo la scelta del riuso turistico del complesso, trovando nella funzione di albergo diffuso la possibile e concreta conversione dei manufatti. Il tutto basandosi su un’approfondita ricerca storica e su un’analisi dei sistemi costruttivi tradizionali, inserendo gli interventi di restauro dell’esistente e di integrazione delle nuove strutture nel totale rispetto della fabbrica. L’idea che ha mosso l’intero lavoro parte dall’analisi della cultura rurale locale, che ha generato il patrimonio dell’architettura minore. L’alta valle del Foglia può rappresentare un territorio nuovamente appetibile se non perde le sue ricchezze; la valorizzazione e il recupero di quest’architettura diffusa può rappresentare un buon trampolino di lancio per riappropriarsi della storia e della tradizione del luogo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fitoplancton è costituito da organismi molto importanti per l'ambiente marino e molto diversificati sia dal punto di vista morfologico che fisiologico.Questi organismi sono normalmente soggetti ai cambiamenti stagionali e alle variazioni dell'ambiente dovute sia a fenomeni naturali che all'impatto antropico, sempre più rilevante. Con questa tesi si è voluto approfondire l'effetto di erbicidi comunemente usati dall'uomo in agricoltura su delle microalghe flagellate rappresentative del Mar Adriatico. L'inquinante scelto è la Terbutilazina, sostanza utilizzata per il diserbo del mais e diffusa in tutta l'area padano-venera, come dimostrano i dati dei campionamenti ARPA, che riportano la presenza di Terbutilazina e del suo prodotto di degradazione Desetil-Terbutilazina a concentrazioni superiori al limite fissato sia nelle acque superficiali che in quelle sotterranee. Anche in mare come riportato in letteratura (Carafa et. al 2009)è stato riscontrato a concentrazioni superiori al limite previsto dalla normativa vigente in Italia. In particolare il meccanismo d'azione di questo erbicida interferisce con la fotosintesi, agendo sulle proteine di membrana dei cloroplasti, rimpiazzando il chinone accettore di elettroni QB della proteina D1 del fotosistema II. Più specie di microalghe fatte crescere in colture 'batch' sono state testate a diverse concentrazioni di erbicida in condizione di luce nutrienti costanti. Questi esperimenti sono stati inoltre condotti a due diverse temperature (20 e 25°C) per studiare l'effetto di questo inquinante in correlazione con l'attuale aumento di temperatura in atto nel pianeta. In una prima fase di screening è stato valutato l'effetto della Terbutilazina su 9 specie di flagellate rappresentative dell'Adriatico, tramite misure dell'efficienza fotosintetica. Grazie a questa prima fase sono state individuate le microalghe e le relative concentrazioni di Terbutilazina da utilizzare negli esperimenti. Per gli esperimenti, sono state scelte le due specie algali Gonyaulax spinifera e Prorocentrum minimum sulle quali si è approfondito lo studio dell'effetto dell'inquinante alle due temperature, attraverso una serie di analisi volte ad individuare le risposte in termini di crescita e di fisiologia delle alghe quali: conteggio delle cellule, torbidità, efficienza fotosintetica, consumo di nutrienti, quantità di clorofilla e di polisaccaridi extracellulari prodotti. La scelta di queste microalghe è stata dettata dal fatto che Gonyaulax spinifera si è rivelata la microalga più sensibile a concentrazioni di erbicida più vicine a quelle ambientali fra tutte le alghe valutate, mentre Prorocentrum minimum è fra le dinoflagellate più frequenti e rappresentative del Mar Adriatico (Aubry et al. 2004), anche se non particolarmente sensibile; infatti P. minimum è stato testato ad una concentrazione di erbicida maggiore rispetto a quelle normalmente ritrovate in ambiente marino. Dai risultati riportati nella tesi si è visto come l'erbicida Terbutilazina sia in grado di influenzare la crescita e la fotosintesi di microalghe flagellate dell'Adriatico anche a concentrazioni pari a quelle rilevate in ambiente, e si è evidenziato che gli effetti sono maggiori alle temperature in cui le microalghe hanno una crescita meno efficiente. Questi studi hanno messo in evidenza anche l'utilità delle misure di fotosintesi tramite fluorimetro PAM nel valutare le risposte delle microalghe agli erbicidi triazinici. Inoltre la diversa risposta delle microalghe osservata, potrebbe avere conseguenze rilevanti sulle fioriture estive di fitoplancton in caso di presenza in mare di Terbutilazina, anche a concentrazioni non particolarmente elevate. Questo lavoro si inserisce in un contesto più ampio di ricerca volto alla modellizzazione della crescita algale in presenza di inquinanti ed in concomitanza con le variazioni di temperatura. Infatti i dati ottenuti insieme a misure di carbonio cellulare, non ancora effettuate, saranno utili per la messa a punto di nuove parametrizzazioni che si avvicinino maggiormente ai dati reali, per poi simulare i possibili scenari futuri variando le condizioni ambientali e le concentrazioni dell'inquinante studiato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel campo della tecnologia, l’ultimo decennio è stato caratterizzato da significativi sviluppi nel mondo dei dispositivi mobili. Si è passati dal tradizionale telefono cellulare, ai più recenti palmari e Smartphone che integrano al tradizionale stereotipo di telefono cellulare, funzionalità avanzate su hardware molto sofisticato. Con un moderno dispositivo mobile infatti, è possibile collegarsi ad Internet, leggere mail, guardare video, scaricare applicazioni e installarle per poterne così fruire. L’International Telecommunications Union (ITU-T) ha stimato che alla fine del 2010 il numero di utenti Internet a livello mondiale ha raggiunto i 2 mi- liardi e che gli accessi alla rete cellulare hanno raggiunto circa 5,3 miliardi di sottoscrizioni. Se si considera inoltre che le reti 2G verranno sostituite da quelle 3G (che consente una connessione alla rete a banda larga tramite dispositivi cellulari), è inevitabile che nel prossimo futuro, gli utilizzatori di Internet tramite rete mobile potranno arrivare ad essere anche qualche miliardo. Le applicazioni disponibili in rete sono spesso scritte in linguaggio Java che su dispositivi embedded, dove è cruciale il consumo di energia, mettono in crisi la durata della batteria del dispositivo. Altre applicazioni scritte in linguaggi meno dispendiosi in termini di consumi energetici, hanno un’interfaccia scarna, a volte addirittura ridotta a semplice terminale testuale, che non è indicata per utenti poco esperti. Infine altre applicazioni sono state eseguite solo su simulatori o emulatori, perciò non forniscono riscontri su dispositivi reali. In questa tesi verrà mostrato come su un dispositivo mobile sia possibile utilizzare, tramite un’interfaccia “user-friendly”, una tecnologia già esistente e diffusa come il VoIP in maniera tale che qualunque tipologia di utente possa utilizzarla senza conoscerne i dettagli tecnici. Tale applicazione, dovendo utilizzare una connessione dati, sfrutterà o una connessione a una rete WLAN o una connessione a una rete cellulare (GPRS, UMTS e HSDPA ad esempio) a seconda della dotazione hardware dell’apparecchio mobile e della locazione dello stesso in una rete accessibile dall’utente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca indaga la praticabilità di uno sviluppo urbano a crescita zero quale risposta al consumo di territorio ed allo sprawl urbano. Con ciò si intende il soddisfacimento del fabbisogno abitativo di un determinato arco temporale all'interno del tessuto urbano consolidato, operando tramite la densificazione della città, costruendo all'interno dei vuoti urbani e degli spazi di risulta, ed evitando di consumare ulteriore terreno agricolo. Lo studio viene declinato prendendo ad oggetto dell'analisi la città di Faenza e come orizzonte temporale il 2032. Il tema prevalente della ricerca riguarda la destinazione residenziale che, in base al principio della mixitè, viene portata anche nelle aree produttive e artigianali nel tentativo di contrastare la monofunzionalità dei settori urbani. Calcolate le quantità edilizie necessarie a soddisfare le esigenze abitative previste, sono stati ipotizzati numerosi interventi all'interno di alcuni tra i vuoti precedentemente catalogati; i progetti sono compresi all'interno di comparti per cui sono definite le diverse destinazioni d'uso in percentuali differenti a seconda della situazione urbana in cui sono inseriti. Di tutti gli interventi proposti, ne sono stati estratti due, localizzati in aree analoghe per vocazione e caratteristiche. Su questi si è effettuato un approfondimento progettuale alla scala architettonica quale verifica delle possibilità offerte dall'approccio urbanistico che ha guidato il masterplan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro ha analizzato il modulo di localizzazione ed identificazione dei mezzi circolanti in area di manovra e la tecnologia da impiegare per ottenere lo scambio dei dati tra le unità imbarcate ed il server centrale. L’attività è stata svolta in collaborazione con ADR-Aeroporti di Roma, gestore aeroportuale di Fiumicino. L’obiettivo è quello di ottenere, in tempo reale, la conoscenza della posizione e della traiettoria di tutti i mezzi circolanti in area di manovra per creare un sistema automatizzato di monitoraggio, in grado di controllare sia eventuali invasioni delle piste e dei raccordi principali sia rischi di potenziali collisioni tra velivoli e mezzi, garantendo la minima separazione richiesta dalle normative e fornendo agli operatori l’indicazione del rischio rilevato. La prima parte della tesi espone lo scenario europeo per quanto riguarda le tecnologie utilizzate per la sorveglianza di velivoli in area di manovra, la seconda descrive la tecnologia più diffusa e promettente a livello internazionale, proposta per l’aeroporto di Fiumicino, mentre nella terza parte tale tecnologia viene analizzata e sviluppata appunto per lo scenario preso in considerazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.